Preuve
On donne une chaîne de Markov à deux états par sa matrice de transition
\(T=\begin {pmatrix} p&1-p\\q&1-q\end{pmatrix}\)
.
Pour chercher une distribution invariante, on résout
\(X=XT\)
avec
\(X=\begin{pmatrix} a & 1-a \end{pmatrix}\)
puisque
\(X\)
est une distribution de probabilités.
\(XT=\begin {pmatrix} a&1-a\end{pmatrix}\begin {pmatrix} p&1-p\\q&1-q\end{pmatrix}=\begin {pmatrix} ap+(1-a)q&a(1-p)+(1-a)(1-q)\end{pmatrix}\)
D'où
\(XT=X \Leftrightarrow\)
\(\begin{cases}ap+(1-a)q=a\\a(1-p)+(1-a)(1-q)=1-a\end{cases}\)
\((L1)\\(L2)\)
En développant les deux lignes
\((L1)\)
et
\((L2)\)
, on trouve la même équation :
\(a(1+q-p)=q\)
Or
\(1+q-p=0\Leftrightarrow p-q=1\)
Or on a nécessairement
\(0≤p≤1\)
et
\(0≤q≤1\)
, donc
\(p-q=1\Leftrightarrow \begin{cases}p=1\\q=0\end{cases}\)
, ce qui correspond à
\(T=I_2\)
, cas trivial où le système n'évolue pas.
Dans tous les autres cas, \(a=\dfrac{1}{1+q-p}\) et il y a donc une unique distribution invariante qui est
\(X_0=\begin{pmatrix}\dfrac{1}{1+q-p}&\dfrac{q-p}{1+q-p}\end{pmatrix}\)
.
Source : https://lesmanuelslibres.region-academique-idf.fr Télécharger le manuel : https://forge.apps.education.fr/drane-ile-de-france/les-manuels-libres/mathematiques-terminale-expert ou directement le fichier ZIP Sous réserve des droits de propriété intellectuelle de tiers, les contenus de ce site sont proposés dans le cadre du droit Français sous licence CC BY-NC-SA 4.0